Amnistía
Internacional
Un estudio en Twitter realizado mediante "crowdsourcing" revela
la espeluznante dimensión de las conductas abusivas online contra las mujeres
Aviso: el texto que figura a
continuación incluye capturas de pantalla que muestran mensajes racistas y
sexistas y amenazas de violencia.
En una muestra analizada por Amnistía Internacional, uno
de cada 10 tuits en los que se mencionaba a periodistas y políticas negras era
ofensivo o problemático; así lo ha manifestado hoy la organización de derechos
humanos al publicar un impactante informe sobre conductas abusivas contra
mujeres en Twitter, realizado con Element AI,
empresa global de desarrollo de programas de inteligencia artificial.
Más de 6.500 personas voluntarias de 150 países se
inscribieron para participar en la Patrulla Antitroles, proyecto único de crowdsourcing (colaboración colectiva) para procesar
datos en gran escala sobre conductas abusivas online. Estas personas
clasificaron 228.000 tuits enviados a 778 mujeres de la política y el
periodismo en Reino Unido y Estados Unidos en 2017.
La Patrulla Antitroles nos ha facilitado los datos que
respaldan lo que las mujeres vienen diciendo desde hace tiempo: que Twitter es
un espacio donde se permite que el racismo, la misoginia y la homofobia
prosperen prácticamente sin control.
A continuación, Amnistía Internacional y Element AI usaron
avanzadas técnicas de aprendizaje automático y ciencia de datos para extrapolar
datos sobre el alcance de las conductas abusivas contra las mujeres en Twitter.
Element AI calculó que se habían enviado 1.100.000 tuits ofensivos o
problemáticos a las mujeres del estudio en todo el año, o un promedio de uno
cada 30 segundos.
“Con la ayuda de técnicos expertos y miles de voluntarios,
hemos creado el mayor conjunto de datos en el mundo obtenido mediante
colaboración colectiva sobre conductas abusivas online contra las mujeres. La
Patrulla Antitroles nos ha facilitado los datos que respaldan lo que las
mujeres vienen diciendo desde hace tiempo: que Twitter es un espacio donde se
permite que el racismo, la misoginia y la homofobia prosperen prácticamente sin
control”, ha afirmado Milena Marin, asesora general sobre investigación táctica
de Amnistía Internacional.
“Descubrimos que, si bien las conductas abusivas se
dirigían contra mujeres de todas las tendencias políticas, las de color tenían
muchas más probabilidades de ser atacadas y, de manera desproporcionada, las
mujeres negras. Al no atajar este problema, Twitter está contribuyendo a
silenciar voces ya marginadas.”
Element AI utilizó los datos recopilados por la Patrulla
Antitroles para desarrollar un modelo de aplicación basado en aprendizaje
automático que intenta detectar los tuits abusivos.
Element AI permite acceder al modelo aquí para
probarlo durante tres semanas, y así descubrir las limitaciones actuales y
potenciales de la tecnología de AI en este ámbito.
“Este estudio forma parte de una asociación a largo plazo
entre Amnistía Internacional y Element AI. Con un enfoque serio sobre la
inteligencia artificial, nuestra empresa establece compromisos a largo plazo,
poniendo sus herramientas y expertos técnicos al servicio de los agentes del
bien común para que hagan lo que mejor saben hacer”, ha afirmado Julien
Cornebise, director de investigación de AI For Good y director de la oficina de
Element AI en Londres.
La muestra incluía a políticas de todo el espectro
político de Estados Unidos y Reino Unido. Las periodistas de la muestra
trabajaban para publicaciones estadounidenses y británicas muy diversas, entre
ellas Daily Mail, The New York Times, The Guardian, The
Sun, gal-dem, PinkNews
y Breitbart.
Principales conclusiones
·
El número de ataques dirigidos contra mujeres
negras era desproporcionado: ellas tenían el 84% más de probabilidades que las
mujeres blancas de ser mencionadas en tuits ofensivos o problemáticos. Uno de
cada 10 tuits en los que se mencionaba a mujeres negras era abusivo o
problemático, frente a uno de cada 15 en el caso de las mujeres blancas.
·
El 7,1% de los tuits enviados a las mujeres del
estudio eran ofensivos o problemáticos. Eso supone 1.100.000 tuits en todo el
año donde se menciona a 778 mujeres, o un tuit cada 30 segundos.
·
Las mujeres de color (negras, asiáticas, latinas
y de raza mixta) tenían el 34% más de probabilidades que las mujeres blancas de
ser mencionadas en tuits ofensivos o problemáticos.
·
Las conductas abusivas online contra las mujeres
se dan en todo el espectro político. Observamos niveles semejantes de conducta
abusiva online contra políticas y periodistas, y comprobamos que afectaba por
igual a liberales y conservadoras, así como a organizaciones de medios de
comunicación tanto de izquierdas como de derechas.
Amnistía Internacional ha pedido reiteradamente a Twitter
que publique los datos relativos al alcance y la naturaleza de las conductas
abusivas en su plataforma pero, de momento, la empresa no lo ha hecho. Así
esconde la magnitud del problema y dificulta la búsqueda de soluciones
eficaces.
Mediante la investigación realizada a partir de colaboración
colectiva, hemos podido reunir datos fundamentales en una fracción del tiempo
que le llevaría a un investigador o investigadora de Amnistía.
El personal voluntario de Patrulla Antitroles dedicó de
manera colectiva la cantidad increíble de 2.500 horas a analizar tuits, lo que
equivale al trabajo de una persona a tiempo completo durante un año y medio.
“Gracias a la investigación realizada mediante
colaboración colectiva hemos podido reunir datos fundamentales en mucho menos
tiempo que un investigador o investigadora de Amnistía, sin perder el elemento
de criterio humano, tan esencial para examinar un contexto de tuits”, ha dicho
Milena Marin.
“La Patrulla Antitroles no consiste en actuar como policía
de Twitter, ni en obligar a la empresa a eliminar contenidos. Pedimos que sea
más transparente, y esperamos que los datos de la Patrulla Antitroles la
impulsen a realizar ese cambio. Es fundamental que Twitter empiece a ser
transparente en cuanto a su uso preciso de las técnicas de aprendizaje
automático para detectar conductas abusivas, y asimismo que publique información
técnica sobre los algoritmos en los que se basan.”
Información complementaria
El contenido abusivo infringe las propias reglas de Twitter e incluye
los tuits en los que se amenaza o promueve la violencia contra alguien por su
raza, origen étnico, origen nacional, orientación sexual, género, identidad de
género, filiación religiosa, edad, discapacidad o enfermedad grave. El
contenido problemático se define como lesivo u hostil, sobre todo si se repite
contra una persona en múltiples ocasiones, pero no tan intenso como el contenido
abusivo.
Amnistía Internacional compartió sus conclusiones con
Twitter, que respondió solicitando aclaración del término “problemático”,
“conforme a la necesidad de proteger la libertad de expresión y garantizar la
elaboración de políticas claras y bien delimitadas”.
Pueden consultar la metodología completa aquí
Materias